法律如何应对人工智能(上)|北大刑法跨学科沙龙系列讲座之五
2017年11月4日晚六点,由北京大学法学院刑事法治研究中心主办的“北大刑法跨学科沙龙系列讲座”第五场在北京大学法学院凯原楼307会议室成功举行。
人工智能是当今社会的热点。从年初“阿法狗”横扫世界顶级棋手,到上个月“阿法元”100比0全胜“阿法狗”,再到近日世界首位机器人公民的诞生,人工智能以迅猛的发展势头不断冲击着人们的日常生活,也为法律带来了全新的挑战。面对这些全新的问题与挑战,法律是否能提供妥当的解决方案?
本次讲座的主题为“法律如何应对人工智能”,由上海交通大学凯原法学院郑戈教授担任主报告人,最高法院司改办规划处处长何帆、京东集团法务部高级总监丁道勤、腾讯研究院法律研究中心副主任蔡雄山、华宇元典公司副总经理黄琳娜担任点评人。中国社会科学院法学研究所助理研究员李强、郑佳、北大英华科技有限公司总经理赵晓海、副总经理何远琼、人民法院出版社总编助理韦钦平出席了本次讲座。讲座由北京大学法学院车浩副教授主持,吸引了百逾名观众到场聆听。
限于篇幅,本次沙龙分两条推送,敬请关注!
车浩:
2017年11月4日举行的“北大刑法跨学科沙龙系列讲座第五期——法律如何应对人工智能”主讲人为上海交通大学郑戈教授。
郑戈老师现任上海交通大学凯原法学院教授、博士生导师,上海“东方学者”特聘教授,主要研究领域为宪法学、政治哲学和社会理论。他本人于1987年考入四川大学法律学系,自1993年起在北京大学法律学系攻读研究生并获法学博士学位。2000—2004年留学北美,先后在加拿大多伦多大学、美国密歇根大学、杜克大学和哥伦比亚大学讲学,并曾任教于北京大学法学院和香港大学法学院。
郑戈老师近年来对人工智能的问题非常感兴趣,是我国法学领域最早研究这一问题的学者之一,发表过广为流传的文章。今晚,他将针对法律与人工智能这一问题为大家带来一场思想盛宴。
本次活动的基本流程是先由郑戈老师主讲,然后几位嘉宾互动,最后开放给各位同学提问。
首先,欢迎郑戈老师。
郑戈:
谢谢各位,我今天要讲的题目是“人工智能与法律的未来”。对于这个话题,在座的朋友们可能都非常关心,因为现在关于人工智能的新闻每天都能看见,每次都能带给我们极大的冲击。
比如过去一个星期左右就有好几条关于人工智能的大新闻,包括沙特阿拉伯第一次赋予一位叫做索菲亚的机器人以公民身份。在接受电视采访时,这位索菲亚对记者的提问应答如流。特别是当提及对人工智能会否导致人类灭亡的看法时,她说这种论调的鼓吹者更像是埃隆·马斯克的东西看的太多了。包括一台叫做AlphaGo Zero的人工智能在空白状态下跟自己对弈480万次之后,以100局全胜的战绩战胜了它的哥哥AlphaGo。
最近,在我们的生活中,这样的新闻每天都会发生。而作为一名法学教授,我更关心的是人工智能将对法律产生哪些冲击,又提出了哪些新的法律问题,法律对这些问题有没有现成的或者是未来的解决方案。
我想从两段引言开始今天的讨论。
第一段是亚历山大段引言开始今天的讨论。作为一名法学教授,我更关心的是人工智能将对法律产生哪些冲击,又提出了哪些新的法律问题,法律对这些问题有没有现成的或者是未来的解决方案。人工智能技术领域的发展是人们无法阻止的。所以,无论喜欢与否都必须直面人工智能现在迅猛发展的事实。
第二段是美国专注人工智能领域的著名媒体人Clay Shirky的话。他说“制度和机构是为解决具体的社会问题而设立的,而它们总是试图不让这些问题得到彻底解决,从而维护自己存在的合理性”。法律制度本身是非常保守的。这种保守性在一个相对稳定、变化速度较慢的社会有它的道理,可以维护社会秩序。
但是当社会进入激烈的变革时期,这种保守的制度,特别是为了维护这种保守制度继续存在合理性的人,试图不去解决新的问题,则是法律必须关注和自我反思的。就像学法律的人大多数不擅长数学或者是理工科不愿意去直面技术领域的问题。但当技术改变着整个社会、改变着人们的交往方式,创造出新的商业模式、新的社会治理模式时,法律人如果还不去关注,就会显得非常落伍。
我后面会展开“人工”和“智能”这两个词的探讨。这里我想指出人工智能提出的一些根本性问题,比如说人的自我意识是怎么产生的,机器能不能最终像人一样产生自我意识。也就是说门卫经常问的三个问题其实在人工领域都会出现:“你是谁”、“你从哪里来”、“你到哪里去”。这是我们今天的人工智能的一个可能的发展方向,科学家试图让人工智能具有人所具有的各种感知和思维能力,眼耳鼻舌身意,包括自我意识。最近影院在热播一部电影叫《银翼杀手》,这部电影提出了一些非常根本的、我前面提到过的哲学问题。
回到我们的现实生活,从我本人经历的事情开始谈。今年8月《上海书评》找我做过一个关于人工智能和大数据的专访。在这个专访结束后的几天,郑诗亮主编在微信里给我转来一条别人的微博消息。有一个北京人说:“今儿上午我被朝阳刑警队的两名外勤带回去接受询问,原因是我在淘宝和京东上分别购买过以下物品:摩托车机油、改装螺丝、厨房用油壶、相机存储卡、家庭影院摇控器、以色列电话卡、北京往返呼和浩特的机票,根据大数据分析有以下潜在可能:在以色列接受了恐怖培训后回国自制炸弹放在飞机上遥控引爆。”
有人质疑这一事件的真假,其实抛开事情本身的真假,这在技术上完全可行。特别是在9·11事件之后,斯诺登曝光美国在国内进行了广泛的全面监控。加之最近这些年人工智能高速发展,完全有可能做出这样预测性的判断。实际上,在全球反恐战争中,许多国家的安全部门和警察部门正是基于大数据的人工智能分析找出了很多潜在的恐怖分子,预防了多起可能发生的恐怖事件。
纽约在9·11之后除了前几天才出现的一次方法比较原始的恐怖袭击外,很长时间没有发生过第二次大规模的恐袭,在很大程度上也正是依靠了大数据人工智能分析的帮助。
在我看来,人工智能是工业文明发展的必然结果,如果不在最近发生,也会在未来某个特定时刻发生。在此简单梳理一下人类社会进入工业文明时代以后对于机械人到人工智能的简单历史和思想史根源。
人工智能是现代工业文明发展的必然产物。早在“现代性”刚刚发端的时代,现代政治哲学的奠基者霍布斯便开始把人和人类社会构想为当时最为精巧的机器——钟表。在《论公民》的“前言”中,他写道:“对于钟表或相当复杂的装置,除非将它拆开,分别研究其部件的材料、形状和运动,不然就无从知晓每个部件和齿轮的作用。同样,在研究国家的权利和公民的义务时,虽然不能将国家拆散,但也要分别考察它的成分,要正确地理解人性,它的哪些特点适合、哪些特点不适合建立国家,以及谋求共同发展的人必须怎样结合在一起。”
1611年出现的“机械人”(Automaton)一词就是那个时代的社会想象的产物,它是指借用钟表齿轮技术而制造出来的自动机械人偶。虽然这种人偶还完全不具备任何意义上的“智能”,但它却体现了促使“人工智能”最终变成现实的那种思路:人的身体和大脑最终都可以用机器来模拟。
19世纪出现了“人形造物”这个词,就是英文当中的“Android”。随着自然科学、尤其是物理学的突破性发展,法国哲学家孔德开始设想研究人类行为和人类社会组织方式的学科最终可以达到物理学那样的成熟状态。人们将可以通过观察、统计和分析而发现近似于自然规律的社会规律,从而“研究现状以便推断未来。”
这就意味着不仅个人的身体和大脑功能可以借助物理学法则用机器来取代,而且社会的组织机制、包括法律,最终也可以由机器来操作和管理。社会物理学这个概念,我相信大多数同学都听说过,了解它的大概历史。但在孔德的年代,这相当于是科幻小说中的梦想,因为基于有限样本的统计分析还远远无法使社会预测达到物理预测那样的精准性。但今天大数据存储和分析已经使样本分析有可能为整全数据分析所取代,并且日益实现动态化和分析者与对象之间的互动化。
换句话说,机器通过“深度学习”也可以变得具有社会性,并且参与人类社会的各种活动,包括游戏和工作。 这也就是说孔德所想象的社会物理世界,在这个时代是很容易实现的。在孔德的时代,英文中又出现了Android(人形机器)一词,其词根是古希腊文中的andro(人)和eides(形状)。
人是语言的动物,一个新语词的出现必然是因为新的事物出现在了人们的现实生活或想象之中,而它能够被普遍使用并成为语言的一部分则是因为很多人都分享着它所表达的现实体验或想象。 Android在英文当中使用广泛,比如人工智能题材的美剧《FRANKIE》,就用android(人形造物)一词指称影片中的法兰姬(Frankie),一位漂亮的机器人女孩。
这一图片大概代表了我们对于Android的了解,也就是关于机器人的普遍想象或者说在现实当中经常看到的机器人的样子。很多人都希望机器人的样子更能凸显出它本身机器人的特征,但其实机器人的外形并不重要,法学界思考人工智能时应该尽量摆脱拟人化的想象。比如欧洲立法提议在自然人和法人之外增加一类电子人,即赋予机器人以所谓的电子人格。在我看来,电子人这个概念毫无必要,之后我会讲到原因。
在工业化时代,用机器来取代人的劳动已经成为一个普遍现实,马克思和恩格斯的经典著作中有许多对这种现实中工人阶级悲惨处境的描述和对造成这种状态的生产关系和社会制度的批判。1920年,捷克作家卡雷尔•卡佩克(Karel Čapek)创作了《罗素姆的万能机器人》(Rossumovi univerzální roboti)剧本,发明了如今通用的Robot(机器人)这个词汇,它的辞源是波兰语中的强迫劳动(Robota)和工人(Robotnik)。
由此可见tRobot”的概念本身包含了一定的批判含义。在卡佩克时代人们更担心机器人取代人类的体力劳动,致使很多工人失业。同时机器人本身也是在压迫下劳动的。卡佩克书里有一幅机器人崛起,反抗人类的插图,其最终结果是机器人消灭了人类。这和马克思、恩格斯所说的工人阶级革命是一样的道理。
如果说工业化时代的机器(无论是不是人形的)所取代的只是人的一部分体力劳动,那么作为工业化升级版的人工智能则是这个过程的自然延伸:它旨在取代人的一部分脑力劳动。 发展到现在,在围棋领域,AlphaGo先后打败了李世石和柯洁,之后又被AlphaGo Zero打败。如果单单看下围棋这件事,它和人类社会现实生活当中的人际互动完全是两回事,因为围棋是一个规则相对来说比较明确且信息封闭的全信息领域。
而在人类社会当中,哪怕是最简单的人际交往都会存在很多的不确定性。所以我们不能简单的用机器人在围棋领域没有对手来设想它可能也会在现实生活中发挥游戏中那么大的作用,这是另外一个需要避免的误区。
这幅图片很多朋友都知道,是美剧《西部世界》的片头,展现了3D打印技术。人体也可以用3D打印技术打印出来。其实在现实生活当中,3D技术和人工智能的结合已经导致某些传统制造业和建筑业有被人工智能所取代的趋势。而在阿姆斯特丹的一座桥,则完全是用3D打印技术打印出来的。3D打印和平常所理解的打印是不同的,它可以直接在各种材料上进行打印,是制造业一个新的发展方向。
引起人们关注的另外一个问题是人造伴侣。可能有很多人都注意到了不久前的一则新闻:荷兰南部一家性用品商店的几个性爱机器人被盗。性爱机器人已经是目前在市场上已经很容易买到的一种产品。或许在不久的将来,机器人或者人工智能就会冲击人类的婚姻、家庭制度,人们可以根据自己的性取向去选择购买不同种类的、甚至是量身定制的具有人工智能的性伴侣。
有学者把人工智能应用领域分为两大类,这是一个最简单的分类,所以我采用这个分类标准来讲述在人工智能应用领域出现了哪些法律和伦理问题以及我们应当如何应对。
一个是综合智能,即我们通常所说的机器学习、神经网络、大数据、认知系统、演进算法等要素的综合应用。它不是传统意义上的编程,也就是说,你只要给它一大堆人类穷其一生也无法浏览完的数据(在互联网的帮助下,这意味着你只要把它联网并通过编程使它具有搜索功能)、包括人类智力根本无法理解的无结构数据,再设定某个具体的目标,最终系统会产生什么结果完全不可预见,不受创造者控制。
围棋智能体AlphaGo先后打败李世乭和柯洁并以智能,即我们通常所说的机器学习、神经网络、大数据、认知系统、演 所谓的“合成智能”在这里主要是各类算法,包括演进算法、预测算法,没有任何形态。也就是说如果在这个领域里设想成一个人或者是具有人格的存在,完全把握不了它的现实状态。
另外一个领域是人造劳动者,它们基本上是传感器和执行器的结合,可以执行各种体力劳动任务,从海底采矿、外空维修到战场杀敌。这个领域也完全突破了传统机器人的想象,比如说如果把人造劳动者和前面谈到的合成智能结合起来,就意味着“机器人”的大脑、感官和手足是可以分离的,手脚(执行器)可以延伸到离大脑(中央处理器)十万八千里的地方。
而在万物联网的时代,这一特征更加明显。例如韩国现在在洗衣机方面全力投入发展智能洗衣机。这意味着你在世界上任何地方都可以控制自己家里的洗衣机,甚至电冰箱和各种各样的电器。在这种万物联网的时代,如果全世界的电冰箱和超市连在一起,商家就可以准确的预测顾客家里面缺什么东西,当然这在技术上已经没有什么困难了。
回到法律,迄今为止整个法律概念体系起源于农业社会,无论是乌尔比安时代的罗马还是亨利二世时代的英国,尽管这点很多法律人不愿意承认。工业化和城市化虽然带来了一些概念和原则变化,以应对。这意味着你在世界上任何地方都可以控制自己家里的洗衣机,甚至电冰箱和各种各样的电器。在这种万物联网的时代,如果全世界的电冰箱和超市连在一起,商家就可以准确的预测顾客家里面缺什么东西,当然这保护的权利和利益,导致了损害结果,有损害就要有法律救济。这种体现行为主义导向和矫正正义的法律观至少仍是现代私法体系的基础。
基于这种原理,法律总是滞后于损害的,只有当主观过错促生了具体行为,行为造成了实际损害之后,法律才能介入,介入的目的也是恢复此前的状态。矫正正义是当中体现的唯一正义。矫正正义的关键要害是恢复原状,当你权益损害的时候,法律的主要目的是恢复它。
查士丁尼和亨利二世是民法法系、大陆法系以及英美法系的主要奠基者。法律是人的有限理性的产物,法律规则本身也体现并顺应着人的局限性。
正如麦迪逊所言:“如果人都是天使,就不需要任何政府了。如果是天使统治人,就不需要对政府有任何外来的或内在的控制了。”这个说法当然针对的是人的贪婪和野心,但也拓展到人的有限认知和计算能力。即使一个人充满善意,她也可能因为自己的能力所限而对自己和他人造成伤害。而法律规则的设计和执行都会把这种有限能力纳入考虑。实际上,人类社会所有的规则,包括游戏规则,都是有局限的人为有局限的人设计的。
比如,人工智能的发展导致了“念带来又一出现,也就是人机融合体。我们设想未来某一天有些人在大脑里植入可以强化记忆力、计算能力和各方面认知能力的芯片,实现人机融合。与“赛博格”相比,今天所谓的正常、没有植入芯片的人会显得智力低下。而赛博格和正常人共处于一个社会,这已经不是科学幻想。现在我们所生活的世界,特别是美国和加拿大已经出现了现实存在的“赛博格”,他们是被人工智能所强化的人。这种情况就会对我们现有的有局限的人为有局限的人所设计的法律提出很多的挑战。
下过围棋的人都知道有些人在大脑里植入可以强化记忆力、计算能力和各方面认知能力的芯片,实现人机融合。与“赛博格”相比,今天所谓的正常、没有植入芯片的人会显得智力低下。而赛博掉对方一个子只需要两步棋。
二是计算能力,给定的边界越多,需要考虑的可能性越少。效率考量使得AlphaGo在布局阶段与人类高手相比并没有太大的区别,仍然是先占角后取边。但在序盘和中盘阶段,AlphaGo却更敢于向中腹突进,这是与它更强大的计算能力相适应的。例如现在的AlphaGo Zero,其自我对弈早期可能是无规律的,一开始就往中盘落子,但是下的盘数越来越多之后大体上也遵循效率规则。但因为它的计算能力远远超过人类,所以在序盘之后的下法会和人类棋手有很大区别。
前面主要讲了人工智能的一些应用领域和人类法律在面对人工智能突飞猛进发展时的某种局限,即法律都是回应性的,其永远后于损害结果。而学习法律的人最担心的是机器人或者说人工智能会不会取代法律职业。我下面从最直接的影响开始,慢慢深入到人工智能对法律当中一些更根本问题的冲击。
我将以几个例子讲人工智能目前在法律职业中的应用。当然,我所举的例子基本是美国的,因为人工智能在中国法律领域里的应用尚受到很多人为的和客观条件的局限,比如说我们法律的数据化程度还不是很高,也包括我们的司法判决书往往比较简短,最近这些年才开始越来越强调在判决书当中更加详细说明裁判理由。
在美国,因为法律数据库发展非常早,早在人工智能蓬勃兴起之前就已经有非常完备的数据库,比如大家都很熟悉的westlaw和Lexis,并且判决当中有大量的事实描述,这就为机器学习提供了基本的素材。所谓非常完备的数据库,简短,为人工智能在中国法律领域里的应用尚受到很多人为的最担心的是机器人或者说人工智能会不会取代法律职业。
我下面从最直接的影响开始,慢慢深入到人介绍了一款法律人工智能产品。它的外观很萌,但作用很有限,无法回答人们按自己的叙事方式表述的具体生活场景中的法律问题。无讼多年来的努力方向是试图建立一套结构化的法律数据库,然后在这套数据库的基础上发展法律人工智能产品。但法小淘这款人工智能产品并没有达到能够进行深度学习的状态,它基本上还是一个封闭的专家系统,智能吐出被喂进去的知识。这其中最重要的原因是可供人工智能去学习的法律数据的数据化程度不是很充分。所以我举美国的例子,美国把人工智能应用到法律职业界,没有很多的人为约束,而且数据化程度非常高。
我举三个例子。
第一个是所谓的电子取证(E—discovery)。这个主要是指广义取证,而不是诉讼过程中的取证,包括交易环节——现在大量的律师从事非诉业务,非诉业务当中也要保存大量的事实,以帮助谈判、商业交易的相关参与者能够更好的完成任务。即使不是专门的互联网企业,也会搜集和产生大量的数据。
2012年,美国计算机科学公司预测到2020年“年度数据生成量”会增加4300%。海量数据的处理既是一种宝贵的资源,也是一种负担,只有借助人工智能才能把这种负担变成资源。美国Brainspace公司专门从事电子取证人工智能的开发,其最新产品Discovery 54增加了中文等多种东方语言阅读功能,从而大大提高了跨国法律业务中的取证能力。
第二个是诉讼管理。美国Casetext公司开发的案件分析研究助理(CARA)可以帮助律师和企业法律顾问完成从判例、法规分析到陪审员选择直到法庭辩论文书生成的一系列任务。也就是说最终出来的结果是一个法律文书,人类律师或者公司法人代表拿到这样的文书就可以直接出庭诉讼或者完成一项交易、。这样的产品在美国越来越多。
此外更加著名的是IBM Watson。其一直在从事法律人工智能方面的研究和开发,它的ROSS系统已经可以代替律师从事法律研究。法律研究(Legal Research)并不是指学术研究,而是指所有律师,无论是从事诉讼业务还是非讼业务都需要花费大量时间研究法条和判例,从而生成相应诉讼方案的研究。法律研究是传统律师业务中最耗费工时的工作。ROSS系统据说可以替代目前美国律师70%的法律研究工作,而且准确率高于90%以上,远远高于顶尖法学院毕业生从事同类工作的准确率。
当然目前主要由律所合伙人从事的人际沟通工作和法官的判断工作无法被机器取代。但“无法”很可能不是技术上不可能,而是不会把法官判断交给机器人去完成。其实如果把这种判断交给人工智能系统,在技术上也是可能实现的。无论是在美国还是中国,律师需要花大量的时间来研究法条和案例,读完之后要写成备忘录,以供在法庭上或谈判中使用。
ROSS系统不光可以做法律研究,还可以把研究结果写成简报,所以出庭律师或从事非诉业务的律师只要拿到这个简报就可以去干剩下的少量据说更有创造性的工作了。虽然听起来很高大上,但这是法律人最担心的事情,显而易见,人工智能可能会取代很多法律人的工作。
美国法学院毕业生通过律师执业资格考试后都会去做律师,这个时间7—10年不等,这个阶段主要从事法研究工作。以前这种工作需要大量的律师去完成,但随着越来越多的美国律所购入人工智能系统,其对从事案头工作和法律研究工作的律师需求越来越小,美国哪怕顶尖法学院毕业生都会头疼毕业后找工作的问题。
第三个是合同起草和合同审核。合同是企业法律顾问面对的主要工作之一,现代商务世界的复杂使得这项工作十分耗费时间和经历。美国LawGeex公司专门开发了有深度学习能力的人工智能,它通过对海量真实合同的学习而掌握了生成高度精细复杂并适合具体情境的合同的能力,它起草的合同不仅远远好于照搬合同范本的结果,甚至好于许多有经验的公司法律顾问的作品。
仅仅通过这三个例子,大家就可以看到人工智能取代法律职业其实指日可待,起码很多方面在技术上已经可能。但其最终的使用实际上更取决于不同社会对待社会稳定等因素的态度,如多人失业、社会看法等问题就在很大程度上影响着人工智能的使用。
在美国这样奉行自由主义原则的资本主义社会,资本家或者说律所老板会更大胆的采用人工智能来取代人的劳动。但是德国《宪法》明确规定德国是一个社会国家,社会国家虽然和社会主义国家不一样,但也会考虑更多的社会因素,包括劳动就业保障,所以会限定人工智能的发展,特别是当它取代人类劳动的时候,会受到更多法律方面的限制。
我画了一幅图来展示人工智能对法律系统的冲击。在我看来,除了人工智能可能取代法律职业外,其实际上对于法律系统存在着更加根本性的冲击。我简单把人工智能涉及的方面分为大数据、云计算和机器学习三类,并对这三个方面进行简要说明。
大数据的产生方式包括物联网。而物联网时代更是随时都在产生大数据,且现在海量数据的产生有时候不依靠人有意识的操作。当我们谈到云计算时,扎克伯格说过:未来社会是算法,而不是法律统治世界。在算法领域,现在基本上是一个黑箱,也就是说只能看到算法产生的结果,不了解算法的运作过程。美国法律人讨论比较多的问题是算法里面有没有包含种族歧视、性别歧视的因素。当然它所涉及的问题不仅仅是这样,包括的问题其实更多。
算法统治世界会带来一定的极权效应。我最近越来越多的使用“大数据掌控者”这个词,而不是政府和企业,因为大数据掌控者在今天世界行使着非常大的权力,很可能不是政府,而是企业。
算法统治世界意味着社会物理学成为现实。当然这里面会涉及到对个人权利的冲击,包括对隐私权的冲击。但对隐私权的侵犯是以人们自愿侵犯隐私作为披露前提,人为了便利逐渐自愿交出私密信息。“习惯性服从”本来是奥斯丁用来描述任何一个社会人们为什么会自愿遵守法律,因为自愿遵守法律是法得以有效的前提,法律虽然是以强制力为基础,但如果大多数人都不遵守法律,国家每时每刻都需要动用强制力,这个是不可能的。
所以使法律有效就必须使人们产生服从法律的习惯。但在人工智能时代,人们习惯性的服从往往是被便利诱导出来。这个图片可以概括后面所要讲的更加根本性的冲击。
上个星期《纽约客》的封面所呈现的图景是:将来机器可能是我们的老板,人类成为乞讨者。报道里所讲的故事其实还是在说人工智能正在逐步取代人类的很多劳动。在构造革命初期,人们所担心的是机器取代人的体力劳动,但是在人工智能时代,机器取代的将是人的脑力劳动,包括医生和律师在内的很多职业面临着人工智能更加直接的冲击。
而人工智能对法律更加根本的冲击,在我看来第一个方面会导致所谓的极化社会。现在社会贫富不均已经很明显,处在塔尖的人有10%,其他90%受这10%的控制或者某种意义上的剥削。人工智能则会使塔尖越来越细,为什么会这样?实际上,由于人认识到自己的局限性,所以在设计规则的时候所考虑的都是所谓常人标准,即以具有中等智力和体力水平的正常人作为规则可行性的判断标准。而且,为了形成稳定的社会秩序,法律往往还会设置比常人标准更低一些的安全线。
从这个意义上讲,法律是一种保守的社会力量,不以满足具有创新精神和创新能力的人士的追求“更快、更高、更好”的野心为目的。梁漱溟先生所说的“经济进一步,政治进一步,循环推进”也适用于法律。法律调整经济-社会关系的方式从来都是回应性的。在技术发展和社会-经济结构变化缓慢的农业社会和早期工业化社会,这种保守倾向使法律发挥了很好的维持社会稳定的作用。
但在人工智能时代,它却使法律滞后于技术和经济的发展,使那些把握先机的人获得了巨大的边际回报。比如,互联网金融和电子商务在中国的迅猛发展就是在相关法律缺位的情况下发生的,等到立法者开始制定规则来规范这个领域,法律所约束的只是后来者,并且自然地巩固了先占者的垄断地位。
同时,先占者又利用已经积累起来的经济、技术和资源(数据)优势开始抢占未被法律规制的新领域。如此层层递进,最终使得循规蹈矩、永远在法律规定的范围内活动的人们与他们之间的差距越来越大。
同时,正如石油是工业化时代最宝贵的资源一样,数据是人工智能时代最重要的资源。掌控的数据越多,供人工智能学习的内容就越多。
首先,它使个人的隐私和自由变得非常脆弱。
其次,它使得传统制造业和其他与互联网没有直接关联的行业处在很明显的劣势。因为人工智能不是一个传统意义上的新联网金融和电子商务在中国的迅猛发展就是在相关法律缺位的情况下发生的,等到立法者开始制定规则来规范这个领域,法律所约束的只是后来者,并且自然地巩固了先占者的垄断地位。
同时,先占者又利用已经积累起来的经济、技术和资源(数据)优势开始抢占未被法律规制的新领域。如此层层递进,最终使得循规蹈矩、永远在法律规定的范围内活动的人们与他们之间的差距越来越大。
美国“精准农业定点解决方案”(Precision Agriculture Point Solutions)和阿里巴巴开发的“植物云”等概念其实都不是抽象概念,其都对应着某种特定的商业模式。无论是政府还是社会对这种新生事物都有一种好奇和乐见其成的心态,希望看到结果后再采取行动,而当结果发生时,且不论它本身是好是坏,这些大数据掌控者全方位的优势其实已经形成。
正是因为这样,大家可以看到无论是自动驾驶汽车还是精准农业都是一些搜索引擎公司在开发。因为他们首先出奇制胜的占领了大数据这个领域,成了大数据掌控者,就可以利用自己所掌握的数据来发展人工智能。
第三,由于这些企业已经掌握了比政府所掌握的更多的关于公民(作为消费者)的信息,热衷于建设智慧城市、智慧政府、智慧法院的公权力部门也不得不求助于它们。浙江省法院系统求助于淘宝来获得当事人真实住址信息只是一个还不那么“智能”的例子。政府很大程度上要依靠企业——因为很多人留给法院的地址是虚假的,但不会留一个假地址给淘宝。
这是以一个很简单的例子说明在人工智能、大数据时代,政府很多时候不得不依靠企业。包括斯诺登所透露出来的棱镜计划,美国安全部门通过和大企业合作,使美国政府情报人员可以进入这些企业后台操作,从而获得公民的信息。这将模糊公权力与私权力之间的边界,使政府本来应该监管的对象成为政府的合作伙伴乃至实际控制者。这方面的冲击非常直接,并不是危言耸听,也是我作为一个公法学者最为关心的领域之一。
第四,这些掌握人工智能应用技术的企业可以用人工智能来分析任何数据,包括消费者行为数据、政府决策数据、立法数据和法院判决数据,并生成对策。这些对策有些要求线下的人际沟通,有人际沟通可以防范或者更加均衡的考量。但也有很多操作完全不需要经过线下沟通,只通过线上操作就可以完成,比如谷歌和百度的搜索结果排序,京东、亚马逊和淘宝的有针对性的商品推荐等等,从而诱导个人消费行为和政府决策行为、立法行为。而这种诱导往往以非常隐秘的、合乎人性的方式展开,不会让人觉得有什么不好的事情正在发生。
传统宪法讨论如何防止公权力的暴政,公权力比如警察权,会产生直接的身体接触,但在未来大数据和人工智能时代,这种操控并不需要物理性的暴力。由此导致的结果便是,人们都“自愿服从”于某种他们看不见的力量,而这种力量借助“人工智能”的超强“脑力”使得法律和监管完全找不到对象,乃至被它牵着鼻子走。用脸书(Facebook)创办人扎克伯格的话来说,我们正在进入“算法”而不是法律统治人的时代。而算法在表面上就缺乏法律的无偏私性和一般性:它毫不遮掩地服务于设计者植入其中的目的。这是我们司法国家治理、宪法问题时不得不直面的事实。
最后,一旦人工智能被应用于本来就充满流动性、风险与不确定性的金融市场,便可能带来既无创新价值,又危害巨大的灾难性后果。
2010年5月6日,美国股市发生了“闪电崩盘”,一万亿的资产价值瞬间蒸发,股价齐跌9个百分点,道琼斯指数急落1000点。美国证券交易委员会(SEC)花了半年的时间才搞清楚发生了什么:原来是不同炒家的计算机程序在相互竞争的过程中导致了失控,在这个被称为高频交易的神秘世界里,这些系统可以“迅雷不及掩耳”地收割小型获利机会,还可以相互探测和利用彼此的交易策略。
像这样的人工智能对决不仅存在于股票市场,还存在于任何投机性的多方博弈市场。美国杂志上登了一篇题为《人类的最后一项发明》的文章,把人工智能说成是人类的最后一项发明。这篇文章里一开始讲述了几个骇人听闻的故事,第一个就是一个开发人工智能的小公司为了赢得自己的第一桶金更好的开发人工智能科技,进入股市小试牛刀,结果帮自己赚了几亿美金的故事。这样的例子在人工智能时代都是真实的件。事后追责型的法律对策无法阻止人们在巨大利益的引诱下利用人工智能进行这种损害范围无法控制的赌博式行为。
下面进入对现有法律应对人工智能模式的一个简单梳理。
第一个方面是要不要赋予人工智能以法律人格。
赋予人工智能以法律人格有很悠久的历史,比如1942年,美国科学家和科幻小说作家伊萨克·阿西莫夫在短篇小说《转圈圈》中提出了“机器人的三条律法”:第一,一个机器人不得伤害一个人类,也不能因为不作为而允许一个人类被伤害;第二,一个机器人必须遵守人类施加给它的规则,除非这些规则与第一律法相冲突;第三,一个机器必须保护自己的生存,只要这种自我保护不与第一或第二律法相冲突。这大体上是应对机器人和人工智能的总体思路,把机器人想象为一个具象化的、能够伤害人的身体也能被人伤害的物体。今天人工智能讨论只是这种思路的进一步延伸。
2016年,欧洲议会向欧盟委员会提出报告,要求制定民事规范来限制机器人的生产和市场流通。
其中第50(f)项建议:“从长远来看要创设机器人的特殊法律地位,以确保至少最复杂的自动化机器人可以被确认为享有电子人(electronic persons)的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格(electronic personality)。”这个听起来像法律人惯有的思路,即当出现一个新问题时,仍在现有法律框架里来探讨解决方案,而这里则提出要增添一种新的法律人格。
但在如何落实这种“法律人格”所必然带来的民事行为能力和责任能力规则时,这份报告并没有提出具体的方案。如果机器人对人造成了损害,究竟是适用罗马法中的“缴出赔偿”(noxae deditio)原则(即把机器人交给受害者或其家属处置),还是让机器人支付赔偿金或坐牢(在这种情况下,最终承担责任的仍然是机器人的“主人”,因为机器人不可能有独立的收入,限制它的“自由”则等于剥夺了其“主人”的财产权)?
由此可见,机器人无论以何种方式承担责任,即使提出了“电子人”的概念,最终的责任承担者都是人。这使得它的“法律人格”显得多余和毫无必要。实际上,这份报告在具体的规则设计部分也自动放弃了适用机器人“法律人格”的努力,比如,它提议制造商为他们的机器人购买强制性保险。此外,还要设立专门的基金来补充保险机制,主要的出资人也是制造商、经销商和其他利益相关者。这说明法律人并没有以一种很好的思路来应对人工智能,特别是这种欧盟模式。
第二个方面是现有的法律安排,主要涉及自动驾驶汽车。
2017年5月,德国联邦议会和参议院通过了一部法案,对《道路交通法》进行了修改。它允许高度自动化和完全自动化的汽车作为交通工具上路。但为了符合1968年《维也纳道路交通公约》第八条“每一部车辆在行驶时都必须有驾驶员在位”的规定,它没有允许自动驾驶汽车变成“无人驾驶”汽车。它规定,当自动驾驶系统启动之后,司机可以转移注意力,比如去读书或上网,但她必须保持足够的警觉,以便在系统发出请求时恢复人工控制。
根据德国自动汽车行业界的评论,上述法案基本上使自动驾驶汽车成了一个废物。首先,自动驾驶汽车比普通汽车昂贵很多,但这部法案的出台却相当于消费者花大笔钱买了一台自动驾驶汽车,却不能做到车上只有乘客而没有司机。其次,如果一个人始终在驾驶状态,显然更有能力应付各种比较复杂的危险局面。最后,请大家设想一下,如果一个人正在看书,忽然听到车发出滴滴的警报声从而立即介入变成人工操作,由于这时车辆处在非常危急的状态,实际上是对驾驶员提出了更高的要求。所以说这个法案受到了业界很多批评。
在这部法律通过之前,法学家弗尔克·吕德曼(Volker Lüdemann)教授曾经在联邦议会发表专家意见,指出法律草案有四个缺陷,这些缺陷虽然后来部分得到了修正,但其给司机带来的不确定性以及隐私问题却仍然存在。在新法下,司机不知道该怎样做才能避免法律责任,自动驾驶汽车无法实现真正的“无人驾驶”,也就是车上只有乘客而没有驾驶员,阻碍了自动驾驶汽车的商业化发展。
试想,如果一个花比传统汽车贵的多的价钱购买了自动驾驶汽车,却时刻必须保持警觉,而且要在自动驾驶系统控制汽车操作一段时间后瞬间介入,应付紧急情况,这实际上对驾驶员提出了更高的要求。
新法把自动驾驶汽车造成人身伤亡的最高赔偿额度提高到1000万欧元,比原来的最高赔偿额度增加了一倍。虽然这笔赔偿在多数情况下将由保险公司支付,但保险公司无疑会提高保费,这也增加了自动驾驶汽车车主的负担。此外,黑匣子信息保留半年的规定也增加了个人数据和隐私被滥用的风险,因为自动驾驶汽车上遍布的传感器和摄像头会记录下非常多的个人私密信息。
与德国立法模式相对照,2017年9月在美国众议院通过的《自动驾驶法》(Self Drive Act)则采取了一种完全不同的思路。它没有改变现有的道路交通规则和与事故责任相关的侵权法规则,而是用宪法和行政法的思维方式划分了联邦与各州之间在规制自动驾驶汽车方面的责任,明确了交通部在确立自动驾驶汽车硬件安全标准、网络安全标准、公众知情标准等方面的具体义务和履行时间表。
这个时间表是针对自动汽车行业本身的,即要求美国自动驾驶汽车业界根据自己的行业特征来提出相关的标准,体现了行业自治的原则。
在我看来这个模式更为务实。因为人工智能或者自动驾驶领域是一个新领域,政府的立法者、政策制定者本身并不了解这个行业的基本特性。所以由立法者,比如像欧盟那样由政客制定相关标准往往会受到行业批评,甚至扼杀行业。所以美国采取宪法和行政法模式,在美国联邦与地方各州分权框架下确立了联邦政府在自动驾驶汽车标准制定方面的主导权。但最终提出标准的是行业,政府部门只作为最后的把关者。
第三个方面是算法设计者必须遵守的伦理规范。
与上述约束自动驾驶汽车制造者和使用者的规范不同,德国交通部长任命的伦理委员会最近提出的一个报告展现一种完全不同的思路:要求算法(即软件)编写者遵守一系列伦理法则。其中提出了20条伦理指导意见,核心是把人的生命放在首位。
比如,其中第七条要求:在被证明尽管采取了各种可能的预防措施仍然不可避免的危险情况下,保护人的生命在各种首法律保护的权益中享有最高的优先性。因此,在技术上可行的范围内,系统必须被编程为在权益冲突时可以接受对动物和财产的损害,如果这样可以防止人身伤害的话。第八条规定,诸如伤害一个人以避免对更多人的伤害这样的伦理难题不能通过事先编程来处理,系统必须被设定为出现这种情况下请求人工处理。
按照这一套伦理规范,以后的程序员编写程序时必须使程序符合一系列伦理要求,这在技术上是完全可行的。但是具体到产品上,却仍然会出现问题。例如上述自动驾驶汽车的系统就会出现这样的问题:当出现撞一个人还是撞几个人的权衡时汽车会发出警报声,这时候上网驾驶员必须介入。但怎么能指望其在这么短时间内判断到底是避开一群人来撞一个人,还是任由汽车把若干人撞倒?这样的伦理选择其实是人类社会面临的永恒问题,很难通过某种立法解决。
但是,除了选择本身的困难以外,我认为这种思路实际上有一定的合理性。将来人工智能应用的领域必然越来越广,涉及到人类生活的方面也越来越多。在可能涉及算法时,人们不能允许算法是一个黑箱,而应该由更多伦理学家和法律人介入人工智能算法的设计。
最后谈一下关于法律如何更加智能的应对人工智能的一些初步想法。
人工智能是历史悠久的人类工程学的最新发展,而人类工程学是艺术和科学结合的产物,它是为人类追求真善美的目的而服务的。人类不能被人工智能不断增长的能力牵着鼻子走,乃至被带入完全不受人类控制的未来。在我看来,为了更好地应对人工智能带来的新风险,在保护创新的同时确保人类生活的美善品质,可能的法律发展包括以下几个向度:
首先,现有的法律模式没有摆脱传统的具象化乃至拟人化思维方式,仅仅将有形的智能化机器或“机器人”纳入规制范围。但是,这些有形的机器只是人工智能的一种表现形态,即“人造劳动者”,它们都受一种无形的、弥散化的智能的控制,这种被称为“合成智能”的由算法、网络和大数据组成的无形、无界的存在才是人工智能的智能所在。
正如李彦宏在其《智能革命》一书里提到的:“也许真要靠算法的顶层设计来防止消极后果。人工智能技术可能不只是理工科专业人士的领域,法律人士以及其他治理者也需要学习人工智能知识,这对法律人士和其他治理者提出了技术要求。法治管理需要嵌入生产环节,比如对算法处理的数据或生产性资源进行管理,防止造成消极后果。”
这种“顶层设计”,我们可以称之为“人工智能社会的宪法”,它的制定或生成需要法律人和程序员、人工智能专家的合作,以便使算法进入法律,法律进入算法,从而使人工智能的基础操作系统符合人类的伦理和法律。而现在算法黑箱也正是我们所面临的一个非常重要的问题。
其次,为了做到这一点,政府应当在发展人工智能方面加大投入,吸收更多的人工智能人才参与立法、行政和司法工作,避免使自己远远落后于商业力量。这在我国比较容易做到,因为顶尖的大学和科研机构都是国家资助和管理的。如果这些人才中大多数都转而为商业机构服务,不仅无法体现社会主义的优越性,也不利于让人工智能向服务于社会公共利益的方向发展。现在的基本事实是人工智能的顶尖人才都在为企业服务,为政府或者为公共利益服务的人才相对比较少,这是人工智能发展过程中又一个很严重的问题。
第三,从现有的各国立法模式来看,欧盟和德国直接修改民事规则和交通法规的做法是在事实不清、需要解决的问题不明朗的情况下做出的仓促选择,既不利于鼓励创新,也不利于保障公民的权利。在目前这个阶段,比较稳妥的方案是美国式的公法模式,指定一个现有的政府部门负责确立相关的行业技术标准、安全标准和个人数据保护标准,而这个标准不应当是自上而下武断强加的,而应当是对行业自身所发展出来的标准与公共利益、个人权利保护原则的综合考量,其制定程序应当遵循公共参与、听证等行政程序规则。
最后,德国的自动驾驶汽车程序设计伦理规范是一个可取的思路。由于人工智能的核心在于算法,算法的设计决定着智能化机器的“行为”。而对于普通人和大多数立法者、执法者和司法人员来说,算法是一个“黑箱”,人们只能看到它所导致的结果,却无法看到它的运作过程。制定相关规则来约束算法设计者的行为,在发生可疑后果的时候要求程序员用自然语言来解释算法的设计原理,并且追究其相关责任,这显然是一种治本之法。
但正如德国模式也只是把这种思路落实为建议性的伦理规范一样,这种规则变成法律仍有很大难度,需要立法者、执法者、司法者和公众都有一定的人工智能知识,能够及时发现可能由算法导致的危害性后果。在人工智能知识象“普法”一样被普及开来之前,一个过渡性的做法是设立由相关领域专家和法律职业人士共同组成的伦理委员会或“人工智能法院”,按照风险防范而不是纠纷解决的思路来处理相关规则的落实问题。
最后我引用罗米欧与朱丽叶里面的一句台词作为讲座的结尾,这句台词其实是《西部世界》里反复提到的一句话,“狂暴的欢愉必然有狂暴的结果或者惨烈的结果”。人工智能在带来很多使我们大开眼界或欣喜若狂的新发展的同时,也带来了很多问题。但值得庆幸的是,其所提出的法律问题和能力问题仍然是人的问题,所以我们不必过多担心人工智能最终会取代人或者消灭人,因为人工智能被用来干什么最终是由人来决定的。
所谓狂暴的欢愉必然带来惨烈的结果,是说对自己的公民同胞不能做的事情也不能通过人工智能来做。比如《西部世界》里就专门创造了一个由智能人所组成的世界,人在人类社会里不能对同胞做的事情,比如杀害、强奸,在虚构的西部世界里可以对机器人去做,放纵了人类本来应该加以节制的欲望。这个喻义可以返回来帮助我们理解人类社会应如何规制人工智能的发展,如何使人工智能能够服务于人类社会的公共利益,使人类生活变得更加美好而不是相反。
谢谢各位。
车浩:
非常感谢郑戈教授做的这个信息量非常大、非常全面、覆盖了很多角度和层次的报告,我自己受益很多。按照我的理解,郑戈老师的报告大致分为六个方面:
第一个方面梳理了人工智能发展的整体历史。也就是人类社会进入到工业文明社会之后如何从用机器人取代人的体力劳动发展到取代人的智力劳动,一直到今天出现的各类情况,例如AlphaGo、3D打印、人造伴侣,直到最后不受创造者控制的合成智能局面的整体历史。
第二部分主要是法律问题。他认为法律主要是一种回应性机制,特别是讲到有限的人为有限的人来设计的规则,所以这里面存在常人标准或者平均性概念。
在这两方面的基础上,第三个层次谈到了人工智能在这种情况下会不会取代法律职业。我理解里面主要是讲对于法律服务系统的冲击,介绍了各种将人工智能应用于法律服务领域的技术。
接下来又专门提到极化社会概念,提到大数据掌控者的马太效应。先占者总是不断的领先,后来者越来越落后,大数据掌控者实际上拥有在整个社会中公民看不见但自愿服从的力量,最终统治人类的不是法律而是算法。
第五点,从立法者角度提到应当如何应对人工智能。现在有几种思路,一种是机器人、人工智能还是像惯常方式作为法律上新的人格去设定,一种是更为务实的采用宪法和行政法分权模式。具体介绍了美国、德国的几个立法,主要涉及到自动驾驶领域、道路交通领域等几个问题。
最后郑老师总结了他的个人观点,这个部分有些挺有意思的想法,我相信在座很多嘉宾跟他观点不一致,在座各位听众稍后也可以向他提问。
感谢郑戈老师一个多小时的报告。下面有请最高法院司改办规划处处长何帆老师,掌声欢迎。
何帆(发言综述):
与郑戈教授报告的主题“人工智能与法律的未来”相呼应,我的评论主要聚焦于“人工智能与法律的现在”,尤其是人工智能目前在法院领域的应用情况。
必须承认的是,尽管人工智能目前的确已开始取代一部分低端的法律职业,但是,囿于人工智能广泛运用的诸多前提要求,人工智能在短期内不可能淘汰法律人。
目前,部分法院已经开始以语音识别、图像识别、证据指引、知识图谱为媒介,对人工智能进行初步运用。
但这一过程也面临各种制约和障碍。例如,部分法官对人工智能的深度运用仍存疑虑,认为人工智能并未减轻其工作负担;人工智能的深度应用要求打通公检法办案平台,但平台搭建需要强化统筹;人工智能的类案推送功能未来可能导致部分办案人员产生说理懈怠,或者过度依赖机器,等等。
最后,法律人应当积极参与到技术研发中,为人工智能的深度应用提供场景、提炼规则,制作各种证据指引和知识图谱,推进机器深度学习。总之,投入多大人工,就会有多大智能。
车浩:
谢谢何帆老师。何帆老师对法律科技这个蓝海有充分的信心,他给我们展示了AI广泛应用的七个前提和四个媒介,也充分介绍了人工智能在目前法院系统所适用的范围和能够达到的程度。
从目前的发言环节看,各位老师和嘉宾都超过了原定的安排时间,如果由机器来讲授,肯定能按时完成。但是,如果是人工智能在讲授,大家不会听得这么高兴,因为老师们的讲授有很多细节性的、风趣幽默的部分,有更多的信息,这也是人比机器更吸引人的地方。
下面三位嘉宾都是具体从事大数据和人工智能实际应用方面的法律专家,就按照顺序,先请京东集团法务部高级总监丁道勤老师发言。
丁道勤(发言综述):
人工智能的应用领域是十分广阔的,图像识别和语音识别仅是其中很小的一个分支。人工智能的三个核心要素是场景、数据和算力,但人工智能不一定意味着大数据。丁道勤先生借以鹦鹉模式和乌鸦模式为例,指出相比于只会模仿的鹦鹉,能自主感知、推理、学习、执行的乌鸦式人工智能才是更值得推崇的。
目前,人工智能已经开始被运用于法律领域,但相较商业领域,人工智能的法律实践仍处于起步阶段。人工智能的法律影响主要体现在主体论——即机器人的法律主体资格问题,以及应用论——包括知识产权保护、侵权责任、隐私保护、劳动法和伦理问题等两大方面。
车浩:
下面有请腾讯研究院法律研究中心副主任蔡雄山老师发言。
蔡雄山:
今天的主题是当法律遭遇人工智能。事实上当我们谈人工智能的时候,很多人就把它想成机器人、想成超人的东西。国际上通用的看法把人工智能分为几个阶段。第一个阶段是弱人工智能阶段,人工智能只能处理一些非常简单的东西,我们现在基本上处于弱人工智能阶段。
下一个阶段是强人工智能阶段,比如现在只能下围棋,不能下象棋,所以这样一个阶段是强人工智能阶段。再下一个阶段是超人工智能阶段,就是丁道勤老师说的智力比人高多少倍。
这个阶段非常遥远,不用太担心,如果和公司工程师聊这个话题,他们会说人工智能控制人的想法是文科生自娱自乐,要达到这一步,技术发展还需要很长一段时间。
这个看法是有印证的。去年年底美国发了一个官方战略报告,叫《国家人工智能研究和发展战略规划》。报告里,美国就是把人工智能分为几个阶段,而且也认为现在是通往强人工智能的阶段,没有给出超人工智能阶段的具体时间。这是中肯的,因为这个东西没有办法预测,不是谁说了就怎么样,很多说法不太靠谱。
中国产业界每年都有很多概念,前两年是物联网、云计算、大数据,今年又是人工智能。人工智能是下一波产业浪潮,这在国际上有共识,体现在几点上:
第一点,各个国家发布了人工智能战略,包括中国、美国、欧盟、日本;第二点,全球互联网企业都在积极布局人工智能发展,比如Facebook、微软都提出了类似的战略,即从前几年发展的移动互联网向人工智能转变;第三是基础研究方面,比如语音识别、图像识别、深度学习这些基础研究确实不断取得进步;第四是应用方面,人工智能在交通、医疗等领域不断的突破,尤其是自动驾驶,目前特斯拉自动驾驶已经行驶了数亿公里。可以看到人工智能离我们的生活越来越近。
今天的核心是讲法律问题,人工智能会带来哪些法律问题。郑戈教授讲了一些问题,但更多是一种哲学层面的思考。从产业界思考,我谈以下几个问题。
首先,人工智能所带来的非常重要的问题是数据的问题。现在的人工智能都是靠数据驱喂养的。前一段时间《经济学人》有一篇文章讲法国的一个超市,超市里面有摄像头,可以捕捉到人的表情,发现一个人非常开心地走进超市多消费,而郁闷、困惑地走进超市会少消费。超市对此做出了商业上的安排:当顾客悲伤地走进商店时,派店员去辅导;当顾客开心走进超市时,就推荐他们购买合适的商品,通过这个方式超市的销售额增长了1/3,这是人工智能系统的应用。
可以看到,数据、隐私是非常重要的问题,但是数据问题已经远远超出了我们以前探讨的个人数据隐私保护,还有数据所有权的问题。农业社会最重要的资产是土地、房屋,所以法律制度发展出来最重要的是所有权、物权制度,工业社会最重要的是知识产权、专利商标。
进入信息社会之后,在人工智能时代最重要的是数据,具有商业价值。所以现在数据所有权的问题是一个非常现实的问题。比如京东平台的数据是不是属于京东,阿里可不可以抓取,现在法院有好几个判决,当然还是通过不正当竞争进行判决。这个问题国外也在有讨论。这是非常现实的问题,一方面是数据保护、一方面是数据所有权的问题。
第二个是算法歧视的问题。 人工智能发展后,很多东西通过算法完成,郑戈老师也提到算法歧视是一个非常重要的命题,这个问题在美国那样的社会非常受关注。前两年美国FTC发布报告:大数据应用的时候,歧视的问题是非常重要的。比如现在金融机构会根据通过社交网络进行分析得出的征信状况给你贷款。
为什么会出现歧视问题?数据不是全面和全样的数据,可能会带来不客观的决定。另外所有系统都是人设计的,人设计和工程师开发时有主观的东西。由于不全面的数据和主观的东西,最后得出的结论可能涉及到这样的问题。
第三个是人工智能监管和责任问题,比如无人驾驶问题。我们不可能说路上的车马上全部是无人驾驶,肯定有相当长的过渡时间是无人驾驶汽车、有人驾驶汽车,包括摩拜、OFO都是同时存在的。这种情况下,出现事故如何界定责任是比较复杂的。如果按传统方法肯定是汽车制造商承担责任,但是无人驾驶会把这些问题更加复杂化,尤其是加入机器学习的功能,可能工程师在开发的时候,自己都无法预料到后续发展。而且当出现事故的时候,人很难察出到底哪里有bug,甚至找不出bug。
第四,现在人工智能写的诗和做的美术作品已经和人类相媲美了,已经有很多人混淆人工智能和人的作品。那么人工智能有没有版权问题或知识产权问题?今年微软小冰出了一本书籍,微软把保护这本诗集的版权的问题提交给律所。如果作者是微软,不会吸引人来看,但如果作者是小冰,小冰又不是一个人,能不能享有著作权?
最后,郑戈老师提到机器人的法律人格问题,法人是拟制的人,机器人有人的情感之后能不能有一个法律上的人格,像人人一样思考和行动,这个非常遥远,但也值得讨论。
国际上不仅讨论人工智能的法律问题,还讨论伦理问题,伦理上有一个悖论,叫“电车困境”。一辆电车驶来,一条轨道上有五个人,另一条轨道上有一个人,你作为扳道工,车停不下来,你到底是撞一个人还是撞五个人。从功利角度看,会选择撞一个人,但从自由主义角度看,结论会不同,因为剥夺任何人的生命都是不道德的。这种困境到现在社会都无法解决。
到了人工智能时代,自动驾驶需要把这种情形下如何处理的指令输进程序,这是非常有意思的伦理问题。但也不是所有自动驾驶的汽车都会考虑这一问题,比如沃尔沃强调自己是世界上最安全的汽车,其设计时就会优先考虑司机的安全,而不是考虑这一问题。这种人工智能伦理问题,现在国际上已经有很多讨论,比如国际电子电机工程协会发布了一个人工智能的伦理指南,又比如在美国阿西洛马召开了一个会议,提出阿西洛马二十三条人工智能原则。目前中国产业发展非常好,但很遗憾没有中国人或者中国人牵头做的规定,这确实值得我们去深思。
无论是法律问题还是伦理问题,从现在来说中国和西方世界是站在同一个起跑线上,因为我们的产业发展并不比他们差,在这个阶段贡献出我们自己在制度建设方面的力量是非常值得期待的。所以今天的探讨是非常有意义的,谢谢大家。
车浩:
谢谢蔡雄山老师,讲得非常清楚,条分缕析了几个方面,里面几个问题我很兴趣,一会儿进一步交流。下面请华宇元典公司副总经理黄琳娜老师说一说法律AI为什么不能复制围棋的成功。
黄琳娜:
为了在人工智能面前捍卫人的尊严,我向车老师承诺我不会超时。我就是何帆老师之前提到的法官离职以后,没有去做律师而去法律大数据公司工作的前法官,所以我今天会以一线研发者的角度,结合实际中遇到研发实例的问题,也就是郑戈老师提到的法律AI为什么不能像AlphaGo一样复制围棋的成功的问题,与大家进行深入讨论。
我们从去年到今年一直在做民间借贷案件的模型,希望这个模型能够去解读和理解原告诉称和被告辩称,提炼民间借贷案件的争议焦点。
大部分法律人会认为民间借贷案件是一类简单案件,因为就是欠债还钱,基础法律关系很清晰。但这类案件也能细分很多场景,其中一个场景是被告提出借条上的签名是伪造的。当被告提出这样的抗辩时,会有各种各样的表述,这些多种说法是人工智能首先要理解的,实际上也就是解决语言表达的多样性和自然语言理解的问题。
我在屏幕上摘录出了其中三种表述:“名字不是我签的”“我没签这个字”“这个字不是我写的”。这还只是简单的措词改变。下面的表述变化更大,比如会说“这个名字是车浩老师签的”“这个字一看就不是我写的”“这个借条是假的”,或者说“我从来没有见过这张借条”。这些多样性表述背后指向的是同一个含义:借条上的签名是伪造的。但这种表述多样性还并不是机器判断时会遇到的最大障碍,我可以举一个在研发过程中的机器真实bug案例给大家说明以下可能遇到的更大的障碍。
在一个机器识别失误的案件中,被告发言称,“这张借条上XXX签名的落款时间是2015年8月,XXX在2015年3月就死了”。各位会迅速得出一个判断:借条上的签名是伪造的。这对人来说可以迅速地判断,但对机器来说不是自然而然能得出的结果。被告人的话实际上包含着常识的逻辑推理,即死后不能做任何事,这是对于“死”这个事情后果常识性的理解,这个常识性理解今天在座所有人都是具有的,但机器在这样的场合就出现了bug。
郑戈老师刚才也向我们提到围棋上人工智能取得的成功是一个非常个案式的成功,围棋跟法律之间的区别在于,首先围棋边界非常封闭,机器只要知道围棋规则就行了,跟围棋无关的一切规则不需要知道。而法律是包罗万象的存在,是对于世间万物的评价、规制和引导,所以是开放性的场域,天然地不是封闭的。
二是围棋上有非常明晰的规则,包括怎么落子,胜负怎么判断。AlphaGo程序里可以不去学习人类任何先验的棋谱,就随机落子,根据棋局胜负反向判断这一步是下对了还是下错了,不断优化策略。
但法律界没有办法用这么一个非常明晰的后果反馈来强化它的学习。这点非常好理解,比如我们今天在座有非常多优秀的法律学者,如果把他们聚集起来谈法律问题,一个小时之内就会在郑戈老师、车浩老师、何帆老师之间出现分歧,有可能是针锋相对、互相不能说服的,这么优秀法律学者之间都存在分歧,说明法律规则不仅仅是复杂,最要命的地方在于它是混沌的,很多场合都没有办法给出明确对错。
用混沌规则引导机器、让人去教机器应该怎么样应对法律,这有天然的困难。所以围棋领域可以摆脱人类先验的经验,可以通过自我对弈自造数据进行积累,再根据数据结果反向推演当前策略,而法律领域很难复制这个道路,人类知识在法律领域是非常重要的。
我们研发实例的过程中遇到了这样的两个对比:数额较大和数额巨大;抢劫和抢夺。机器会认为这几个文本的相似性非常高,甚至会判断为这是可以互换的概念。但是法律人一看就知道,这些概念之间有着本质差别,会对法律适用产生直接影响。但这不是机器可以自己产生的意识,必须要法律人把我们对概念的区分传递给机器。
下面可以看一个更典型的例子,就是时效。时效制度是出于特定目的诞生的人类拟制概念和制度,是为了敦促人们积极的行使权利,同时能使权利处在相对稳定受保护的状态。如果我们想按照围棋发展路径,让机器自发学习,其实机器不带有人类社会的动机和初衷,不带有权利保护意识,也不带有在人类社会中权利保护的各项背景,不可能像机器学习围棋一样从无到有的自发生成这个制度。
对此,有人会提出另外一个想法,认为把网上讨论时效文书全交给机器,机器就能学习时效概念和创新时效制度。这样的想法过于乐观,乐观的点在于希望用无监督学习,在没有强人工干预的基础之上让机器完成自学。前面已经讲到,文书里讨论的问题也好,出现的表述也好,都是非常多样化的。如果仅仅把3万篇包含着时效的文书丢给机器,那这些文书里可能包含其他更多元素甚至是共性元素,会导致机器连给它布置的任务是什么都搞不清楚。
所以我们让机器学习法律时效概念时,研发过程中要做的第一步是大规模的数据标注,文书里哪些段落和表述是讨论时效问题,哪些地方是对时效问题进行相应的处理,处理结果是什么。这样大规模的数据标注才是机器进行学习所必须要的燃料。
如果跳过这一步,大家可以想象一个最简单的事例,想象一下一个小孩分一堆积木,他的分类依据可能按颜色、形正、大小等,这也会是我们不给机器任何指导下让机器自行学习的结果。所以在目前的法律研发阶段里我们用的是监督学习。监督学习的前提是一个大规模的数据标注,这是在法律领域机器学习的应用里还没有办法跳过去的一步。
当然现在也有很多人在探索无监督学习,探索怎么样摆脱机器对于大数据的依赖,让机器从小数据里进行学习。业界对此做了很多探索,比如有人把监督学习跟常化学习联系起来,用相对小规模的数据标注,有基本的概念模型后,让机器随机进行判断,再由人进行强化学习,人工地对它的初步模型结果进行相应的反馈,逐渐在强化学习中引导机器不断通过数据循环提升模型的准确性。这一方法在现在通用的人工智能必须的三个要素——算力、算法、数据之外,属于法律领域特有的知识要素。
人工智能领域,法律是强知识驱动的学科,何帆老师反复提到法律知识图谱的编制和绘制对于我们现在在法律人工智能上的推进是必不可少的。但是在这里还有一个常见的误区,就是法律知识图谱不等于人所说的知识管理,因为很多人会说,现在很多优秀学者写了很多书,完全可以成为做机器的知识图谱的基础。
但是这些书也好,或者其他论文也好,或者任何人类的知识也好,都要经过一个转换的过程,这样一个转换过程的最大区别就在于知识管理是为了人跟人之间去传递知识,是为了人知识能够从一个人传承到另外一个人。知识图谱是为了人跟机器之间传递知识,必须要把人的知识管理转化为机器能够理解、识别、封装成及机器学习的形态,这样的形态是后续机器在知识图谱基础之上做下一步深入判断的基础。
我们讨论人工智能的发展对于法律影响时,会担心法律人会否在接下来的时代里失业。从我个人研发经历来看,法律人不会面临失业,会面临的是工作形态的转化。在接下来的时间里,法律知识工程师这样一个职业的发展会越来越蓬勃。法律知识工程师做的工作就是把人类的知识转化成机器可以理解的形态,然后提高机器对于法律概念认知的能力,使得机器能够处理越来越复杂的法律问题。这样的职业以后会变成跟法官、律师、法务一样,是我们法学院毕业生毕业以后相应的选择方向,也可能是法官辞职以后的新去处。
最后和大家讲四个字:另一条狗。人工智能在法律领域这么弱,没有办法复制AlphaGo的成功。我们要在法律人工智能领域走下去,可能需要的不是一个AlphaGo,而是跟它形态完全不同的另一条狗,这个狗有自己的特色,要存在于强人工干预的领域里由知识驱动的行业。这样的行业的人工智能应该怎样实现,辅助人类的形态应该是怎么样,需要很多场像这样的活动再一次讨论。
再次感谢车浩老师和北大法学院给我这样的机会,我个人参加北大活动非常开心,十年前我是北大法学院的学生,毕业的时候凯原楼还没有建,今天过来路上迷路了,是北大法学院的同学把我带到凯原楼的,非常感谢。
更多精彩,请见今日第二条推送“法律如何应对人工智能(下)”
北大刑法跨学科沙龙系列讲座往期回顾